首页> 外文OA文献 >Max-Cosine Matching Based Neural Models for Recognizing Textual Entailment
【2h】

Max-Cosine Matching Based Neural Models for Recognizing Textual Entailment

机译:基于最大余弦匹配的神经模型识别文本   蕴涵

代理获取
本网站仅为用户提供外文OA文献查询和代理获取服务,本网站没有原文。下单后我们将采用程序或人工为您竭诚获取高质量的原文,但由于OA文献来源多样且变更频繁,仍可能出现获取不到、文献不完整或与标题不符等情况,如果获取不到我们将提供退款服务。请知悉。

摘要

Recognizing textual entailment is a fundamental task in a variety of textmining or natural language processing applications. This paper proposes asimple neural model for RTE problem. It first matches each word in thehypothesis with its most-similar word in the premise, producing an augmentedrepresentation of the hypothesis conditioned on the premise as a sequence ofword pairs. The LSTM model is then used to model this augmented sequence, andthe final output from the LSTM is fed into a softmax layer to make theprediction. Besides the base model, in order to enhance its performance, wealso proposed three techniques: the integration of multiple word-embeddinglibrary, bi-way integration, and ensemble based on model averaging.Experimental results on the SNLI dataset have shown that the three techniquesare effective in boosting the predicative accuracy and that our methodoutperforms several state-of-the-state ones.
机译:在多种文本挖掘或自然语言处理应用程序中,识别文字蕴含是一项基本任务。本文提出了RTE问题的简单神经模型。它首先将假设中的每个单词与其前提中最相似的单词进行匹配,从而以该条件为前提,以单词对序列的形式对假设进行增强表示。然后,将LSTM模型用于对该扩展序列进行建模,并将LSTM的最终输出馈入softmax层以进行预测。除了基本模型以外,为了提高其性能,我们还提出了三种技术:基于模型平均的多词嵌入库集成,双向集成和集成.SNLI数据集上的实验结果表明这三种技术是有效的在提高预测准确性方面,我们的方法优于几种状态法。

著录项

  • 作者

    Xie, Zhipeng; Hu, Junfeng;

  • 作者单位
  • 年度 2017
  • 总页数
  • 原文格式 PDF
  • 正文语种
  • 中图分类

相似文献

  • 外文文献
  • 中文文献
  • 专利
代理获取

客服邮箱:kefu@zhangqiaokeyan.com

京公网安备:11010802029741号 ICP备案号:京ICP备15016152号-6 六维联合信息科技 (北京) 有限公司©版权所有
  • 客服微信

  • 服务号